第 11 屆 iThome 鐵人賽
分享至
11天了,快要一半了,加油!!
接下來講講最適化~
這邊會講到損失函數
機器學習通常用損失函數表示好壞
損失函數的定義就是樣本跑出來與真正值之間的差別,平方是為了去負號(跟標準差一樣)
若是損失函數越小,那當然越好囉,代表與真實質之間差別越少,所做出的機器學習越好,反之亦然
公式如下:
再來是最重要的Gradient Descent
用來評估損失函數
若是降到底部,以這個函數為例,代表差距越小
但還是有可能下錯車
所以做的結果也不一定對。
今天先這樣 掰掰
IT邦幫忙